導論
1.1 顯式與隱式知識
1.2 多任務神經網路架構
隱式知識如何作用
2.1 高維度空間降維:一個好的表徵能在多維空間中找到適當的投影,若目標類別可以藉此投影空間超平面分類,有助於完成不同任務。故本文利用投影向量與隱式表徵內積達成空間降維。
2.2 核空間對齊(維度歸一)
2.3 不同運算子作用
如何推導統一網路
3.1 傳統網路:傳統網路訓練時,我們期待對相同目標的不同觀測,是在fθ子空間上的單點(單一子表徵)。如下圖( a )。
3.2 統一網路:統一網路訓練時,我們期待對不同目標的不同觀測,是在fθ子空間上的T表徵(多個t子表徵的集合),再藉由selector選擇不同的t子表徵,解決不同任務。如下圖( c )。
實驗比對
4.1 引入隱式比對
FPN特徵對齊:在每個FPN特徵映射時,加入隱式表徵執行特徵對齊。(引入+iFA優於Baseline)。
預測精煉:增加隱式表徵到YOLO輸出層(引入+iPR優於Baseline)。
多任務學習
4.2 顯式、隱式知識運算子組合
4.3 架構統一網路方法比對
向量建模(z)
神經網路建模(Wz)
矩陣分解建模
比較結果:矩陣分解建模綜合表現最佳。
4.4 統一網路與其他比對
統一網路優於Baseline
統一網路AP比肩Scaled YOLOv4,且有著更高的FPS。此外,雖然沒有引入額外的訓練集和標註,卻有著不遜色於有引入模型的AP。
讓我們繼續看下去...